人形与具身智能产业何以叩响“Scaling Law”之门?
2025年,人形机器人行业正站在关键的转型节点,从早期的“主题炒作”逐步迈向“产业趋势投资前期”。华泰证券近日研报显示,随着特斯拉、Figure等海外龙头及国内企业开启小批量量产,市场对人形机器人的远期空间已形成共识,但真正推动行业进入非线性增长的“Scali
智能 人形机器人 scaling scalinglaw 人形 2025-09-24 22:00 1
2025年,人形机器人行业正站在关键的转型节点,从早期的“主题炒作”逐步迈向“产业趋势投资前期”。华泰证券近日研报显示,随着特斯拉、Figure等海外龙头及国内企业开启小批量量产,市场对人形机器人的远期空间已形成共识,但真正推动行业进入非线性增长的“Scali
智能 人形机器人 scaling scalinglaw 人形 2025-09-24 22:00 1
很多人认为,Scaling Law 正在面临收益递减,因此继续扩大计算规模训练模型的做法正在被质疑。最近的观察给出了不一样的结论。研究发现,哪怕模型在「单步任务」上的准确率提升越来越慢,这些小小的进步叠加起来,也能让模型完成的任务长度实现「指数级增长」,而这一
智能体 研究 llm 轮次 scalinglaw 2025-09-16 15:24 4
很多人认为,Scaling Law 正在面临收益递减,因此继续扩大计算规模训练模型的做法正在被质疑。最近的观察给出了不一样的结论。研究发现,哪怕模型在「单步任务」上的准确率提升越来越慢,这些小小的进步叠加起来,也能让模型完成的任务长度实现「指数级增长」,而这一
智能体 研究 llm scaling scalinglaw 2025-09-16 14:29 1
很多人认为,Scaling Law 正在面临收益递减,因此继续扩大计算规模训练模型的做法正在被质疑。最近的观察给出了不一样的结论。研究发现,哪怕模型在「单步任务」上的准确率提升越来越慢,这些小小的进步叠加起来,也能让模型完成的任务长度实现「指数级增长」,而这一
智能体 研究 llm scaling scalinglaw 2025-09-16 14:08 2
很多人认为,Scaling Law 正在面临收益递减,因此继续扩大计算规模训练模型的做法正在被质疑。最近的观察给出了不一样的结论。研究发现,哪怕模型在「单步任务」上的准确率提升越来越慢,这些小小的进步叠加起来,也能让模型完成的任务长度实现「指数级增长」,而这一
智能体 研究 llm scaling scalinglaw 2025-09-16 14:10 2
2025年,AI如同一颗「超新星」,穿越时间和空间的界限,点燃了文明的无限可能。
scalinglaw cto 王海峰 agi曙光 scali 2025-09-11 19:28 5
十年间,从AlphaGo到AGI曙光初现,AI一路狂飙。新智元十周年峰会现场,百度CTO王海峰倾力分享,AI正加速解锁「全面」与「通用」的双重突破。值得一提的是,在百度内部,超45%每日新增代码由AI自动生成。
百度 scalinglaw cto 王海峰 agi曙光 2025-09-11 18:32 2
在合理的范围内,通过简单地增加模型参数量(N)、训练数据量(D)和计算量(FLOPS,C),可以以一种可预测的、平滑的方式显著提升模型性能。
scaling scalinglaw 分类器 支持向量机 贝 2025-09-03 10:16 3
8月27-28日我们组织了2025年秋季策略会,在人形机器人论坛上讨论了机器人的“Scaling Law”时刻、本体在工业场景落地的应用前景和解决方案、以及机器人开放平台的必要性。
人形机器人 scaling 泛化 scalinglaw he 2025-09-03 07:30 4
美团外卖推荐算法团队基于HSTU提出了MTGR框架以探索推荐系统中Scaling Law。MTGR对齐传统模型特征体系,并对多条序列利用Transformer架构进行统一建模。通过极致的性能优化,样本前向推理FLOPs提升65倍,推理成本降低12%,训练成本持
外卖 美团 scalinglaw 美团外卖 mtgr 2025-05-16 13:00 14
原来早在 2017 年,百度就进行过 Scaling Law 的相关研究,并且通过实证研究验证了深度学习模型的泛化误差和模型大小随着训练集规模的增长而呈现出可预测的幂律 scaling 关系。只是,他们当时用的是 LSTM,而非 Transformer,也没有
百度 anthropic scalinglaw 2024-11-27 14:36 17
The Information表示,据OpneAI内部人员透露,GPT系列模型更新缓慢,即将推出的下一代旗舰模型Orion并没有实现质的飞跃,虽然性能上超过了以往模型,但相较于从GPT-3到GPT-4的迭代,改进幅度缩小,OpenAI正在转变策略。
模型 推理 scalinglaw 2024-11-22 19:20 18
在自然语言处理领域,一个显著的转折点正在显现:单纯的模型规模和数据量增加,似乎已触及性能提升的瓶颈。业界开始质疑,Scaling Law是否已走到尽头,低精度训练与推理是否正导致模型性能提升的边际效益不断递减。然而,这一挑战也为新的探索开辟了道路。
模型 模态 scalinglaw 2024-11-22 14:08 16
Scaling Law 或将终结——这是最近备受热议的话题之一。该讨论最初源自于哈佛大学一篇名为《Scaling Laws for Precision》的论文,其研究表明当下的语言模型在大量数据上经历了过度训练,继续叠加更多的预训练数据可能会产生副作用。
模型 scaling scalinglaw 2024-11-22 11:25 21